1
От традиционного кода к приложениям на основе генеративного ИИ
AI011Lesson 3
00:00

От традиционного кода к приложениям на основе генеративного ИИ

Ландшафт разработки программного обеспечения переживает фундаментальную трансформацию. Мы переходим от жесткого, командо-ориентированного программирования к гибкому, управляемому естественным языком генеративному ИИ взаимодействию.

1. Разрыв цепочки команд

Что это такое: Традиционные приложения зависят от фиксированных графических интерфейсов (GUI) или конкретных наборов команд, зависящих от языка. Если пользователь отклоняется от ожидаемого ввода, система не справляется.

Почему это важно: Приложения на основе генеративного ИИ предлагают беспрецедентную гибкость. Они позволяют пользователям взаимодействовать с помощью естественного языка для достижения сложных целей, адаптируясь к намерению, а не только к синтаксису.

2. Принцип недетерминизма

Что это такое: В традиционном коде $1 + 1$ всегда равно $2$. Это детерминировано. Большие языковые модели (LLM), напротив, работают на основе вероятностей.

Как это работает: Они могут давать разные результаты для одного и того же запроса. Эта вариативность управляется определёнными параметрами, особенно температурой.

3. Основные элементы: токены и температура

  • Токены: Основные числовые «строительные блоки» текста, используемые моделью. Слова разбиваются на эти подсловные единицы.
  • Температура: Настройка (от $0.0$ до $1.0$), регулирующая случайность. Низкие значения дают предсказуемый, сосредоточенный текст; высокие значения поощряют творческие, разнообразные результаты.
Безопасность прежде всего
Никогда не вставляйте ключи API непосредственно в код приложения. Всегда используйте переменные среды (например, .env файлы), чтобы защитить ваши ресурсы ИИ от несанкционированного доступа.
app.py
TERMINALbash — 80x24
> Ready. Click "Run" to execute.
>
Question 1
Why are Large Language Models (LLMs) described as "non-deterministic"?
Because they can produce different results for the same prompt every time.
Because they always return the exact same output for a given input.
Because they cannot run on standard computer processors.
Because they require quantum computing to function.
Question 2
Which parameter should you decrease if you want the AI output to be more predictable and less creative?
Max Tokens
Top-P
Temperature
Frequency Penalty
Challenge: Building a "Study Buddy"
Apply your knowledge to a real-world scenario.
You are building a "Study Buddy" application that must provide strictly factual definitions for students preparing for exams. The application will connect to an Azure OpenAI resource.
Task 1
Identify the optimal Temperature setting for this specific task.
Solution:
Set Temperature to 0.0 or 0.1. This minimizes randomness and ensures the model provides the most likely, factual, and consistent definitions rather than creative or hallucinated responses.
Task 2
How should you secure the application's sensitive connection data?
Solution:
Move the API_KEY from the main code file into an environment variable or a hidden .env file. Use os.getenv("AZURE_OPENAI_KEY") to retrieve it securely at runtime.